ReLU
# Tag:
- Source/KU_DL
- Source/KU_ML2
ReLU
음수는 0으로, 양수는 그대로 출력하는 Activation Function
일부분이 Linear함이 강하게 드러나므로, 성능이 좋게 나타나는 Activaiton Function이기도 하다.
Sigmoid와 Tanh는 1보다 크지 않은 값으로 치환하기 때문에 학습이 효과적으로 이루어지지 않는데, 이를 해결하는 방안이 되기도 한다.
또한, Sigmoid는 양 끝에서 기울기가 0에 가까워지므로 Gradient Vanishing 문제가 잘 생기는데 이를 해결해주기도 한다.
Leaky ReLU function
ReLU의 기울기가 0인 부분에 의해 Back Propagation시 update가 이루어지지 않는 문제를 해결하기 위한 ReLU의 일종.
이 때 으로 하여, 이를 parameter 취급해 학습시키는 방식은 PReLU(parametric ReLU)라고 한다.